对话朱啸虎:搬离中国,假装不是中国AI创业公司,是没有用的
他们从DeepSeek和Manus谈起,一路聊到AI应用的“速度壁垒”、创业者应该避开的“水电煤”陷阱、该投资人形机器人还是干活的“牛马机器人”,以及中国公司在全球化浪潮中的真实处境。
他们从DeepSeek和Manus谈起,一路聊到AI应用的“速度壁垒”、创业者应该避开的“水电煤”陷阱、该投资人形机器人还是干活的“牛马机器人”,以及中国公司在全球化浪潮中的真实处境。
本文第一作者谢之非,共同第一作者马子阳皆是来自于南洋理工大学的博士生。通讯作者为新加坡国立大学特聘教授颜水成和南洋理工大学数据与科学系校长讲席教授苗春燕。共同作者为腾讯AI首席专家叶德珩和新加坡国立大学博士后研究员廖越。
你或许认为 Token 续期只是简单地重置有效期,但事实上,接近九成的系统安全漏洞正源于此!当用户提交重要表单时突然被强制跳转至登录页,或是系统在高并发场景下因 Token 集中刷新而崩溃——这些典型问题往往都指向同一个根源:Token 续期策略的设计缺陷。
超大规模云服务商发明了许多与商业互联网第二波和第三波浪潮同义的新技术,其中许多首先在谷歌被发明。这是有道理的,因为谷歌是第一个达到超大规模的公司,许多问题首先在谷歌出现。
这项由中科院计算技术研究所张少磊、方青凯、杨哲等研究人员领导的研究发表于2025年的ICLR国际学习表示会议,有兴趣深入了解的读者可以通过论文链接https://github.com/ictnlp/LLaVA-Mini或模型地址https://huggingf
《科创板日报》9月17日讯近日,华为举办智能世界2035系列报告发布会,正式发布《智能世界2035》和《全球数智化指数2025》报告。其中展望了未来十年包括人工智能、算力、数据存储等方面的关键技术趋势。
// 结合Redis校验Token状态public boolean validateToken(String token, UserDetails details) { String username = extractUsername(token); Str
数据显示,AI在商业领域的实际部署和应用正在显著提速。中国企业级大模型的日均Token消耗量在2025年上半年达到了10.2万亿,较2024年下半年激增363%。
自 2024 年 9 月以来,大语言模型在推理方面的展现出了惊人的进展。在代码、数学等结果可以被高效验证的领域,大语言模型已经走出实验室走向实践。医疗领域中的临床推理,要求模型基于强大推理能力,将艰深的医学知识灵活的应用到对病人病情的分析和检验检查结果的解读上
在信息爆炸的时代,API(应用程序编程接口)已成为连接数字世界的桥梁,极大地促进了数据的流通和服务的共享。然而,这种便捷的背后,潜藏着严峻的数据泄露风险。而造成这些风险最核心、最直接的原因之一,往往在于API接口的权限控制是否到位。
这项由NVIDIA、延世大学和台湾大学联合完成的研究发表于2025年,研究团队由NVIDIA的Miran Heo、Min-Hung Chen等人领导。感兴趣的读者可以通过arXiv:2501.08326v2访问完整论文。这项研究首次实现了让AI同时理解图像和视
AI大模型的数学能力是怎么实现的?最新研究给出了一份让人意外的答案。美国加州大学圣克鲁兹分校、乔治·梅森大学和Datadog的研究团队联合发布实验结果,揭开了大语言模型(如Llama-3-8B)在心算任务中的“黑箱”:原来,几乎所有实际的数学运算都集中在序列最
你可能不知道,当AI在解“42+20-15”这样的数学题时,前面的计算步骤可能都是在“摸鱼”,真正的计算全靠最后一个步骤完成。
智能体的浪潮正席卷而来,从自动化客服到代码生成,无数开发者投身其中,期望打造出无所不能的数字员工。
你跟它聊个项目,刚说过的细节,过几轮它就忘了。问它刚才调用哪个工具,它一脸懵。你让它记住团队的偏好,它答应得好好的,结果下次又从零开始。
最近,来自加州大学圣克鲁兹分校、乔治·梅森大学和Datadog的研究人员发现:在心算任务中,几乎所有实际的数学计算都集中在序列的最后一个token上完成,而不是分散在所有token中。
transformer 数学题 token af1 llam 2025-09-14 13:37 5
这篇文章的作者Ethan Ding,系统性地阐明了如今正在AI行业发生的一个“诡异”现象:虽然Token的单位成本下降了,但是由于AI能做的事越来越多,越来越被更多的人自动化地执行更大的任务, Token的消耗爆炸了,大模型公司的亏损率都在不断提高。
阿里通义实验室近日宣布推出新一代基础模型架构Qwen3-Next,并同步开源基于该架构开发的800亿参数规模模型Qwen3-Next-80B-A3B-Base。该模型采用创新性的参数激活策略,实际运行时仅需激活30亿参数,在保持高效能的同时显著降低计算资源消耗
今天凌晨,阿里通义实验室正式发布下一代基础模型架构Qwen3-Next,并训练了基于该架构的Qwen3-Next-80B-A3B-Base模型,该模型拥有800亿个参数仅激活30亿个参数。
今天凌晨,阿里通义实验室正式发布下一代基础模型架构Qwen3-Next,并训练了基于该架构的Qwen3-Next-80B-A3B-Base模型,该模型拥有800亿个参数,仅激活30亿个参数。